—— 青亭网
AI芯片的竞争将成为又一场马拉松
Esther| 撰文
多年来,半导体行业的竞争似乎尘埃落定了:英特尔公司几乎击败了服务器行业所有的RISC(精简指令集算法)处理器厂商,拯救了IBM的Power系列处理器。而在2013年,AMD经受了英特尔x86的一系列打压无力还击。NVIDIA(英伟达)作为GPU行业的后起之秀,曾在90年代打败了许许多多的竞争者,而现在只剩下了AMD还能与之抗衡,也就是收购而来的ATI,其早前的市场份额号称达到了NVIDIA的一半。
而在全新的移动市场中,仿佛讲述了一个近乎垄断的相似故事:英国ARM公司称霸了移动芯片市场。在此期间,英特尔非常努力地开发Atom处理器,但是频频碰壁,最终于2015年放弃。
就这样,一切都改变了,AMD作为x86强力的竞争者又重新浮出水面,后来FPGA(可编程门阵列技术,专门处理大数据等新型技术)处理器出现了。不过,芯片市场还是在人工智能(AI)与机器学习(ML)的出现后,才出现了重大转变。随着这些新兴科技的出现,一些令人意想不到厂商也推出了一批新的处理器,笔者在下方进行了整理。
◉英特尔通过在2016年收购深度学习公司Nervana Systems,而后又收购了一家计算机视觉芯片公司Movidius,开发图像处理AI技术。
◉微软正在为HoloLens的混合现实头显开发一款AI芯片,未来这款芯片可能应用与其他设备中。
◉谷歌为神经网络开发了一款AI芯片,名为张量处理单元(TPU),可供谷歌云平台上的AI应用使用。
◉据报道,亚马逊在为Alexa语音助手开发一款AI芯片。
◉苹果在研发一款AI处理器,名为Neural Engine,将用于Siri和FaceID。
◉近日,ARM集团推出了两款新处理器,ARM机器学习(ML)处理器和物体检测(OD)处理器,都是专门用来识别图像的。
◉2017年底,IBM公司开发了一款专门的AI处理器Power 9,并且授权NVIDIA的NVLink部门专门为AI和ML量产高速数据。
◉非传统科技公司特斯拉都想加入竞争,CEO马斯克在2017年底都证实前AMD和苹果芯片的工程师,“芯片大神”Jim Keller将为特斯拉研发芯片。
当然,这些只是宏观的总结,并没有算入各种初创公司。《纽约时报》估计专注开发AI芯片的创业公司(既不是软件公司,也不是芯片公司)能有45家,而且数量还在增加。当然,这个数字并不完整,因为有些在中国的创业公司由政府投资,非常低调。
那么问题来了,芯片制造业停滞不前这么久之后,为什么又火爆起来了?毕竟,大家都知道,NVIDIA公司的GPU是很优秀的人工智能处理器,而且已经得到了广泛应用。那为什么现在需要更多开发更多不同的芯片呢?
这个问题的答案就和人工智能本身一样,很复杂。
向钱看齐(也向使用率与效率看齐)
高性能计算行业的顾问咨询公司Intersect360 Research的CEO Addison Snell,负责HPC(高性能计算机群)和AI问题,他表示:“目前,x86还是电脑运算中主要使用的芯片架构,x86架构和AI一样也有着高度专业化的用途。”
他继续说道:“x86本身就是一个普通的服务器平台,因此,它必须样样精通。而其他芯片,是专门为某个应用开发的,并不需要应付其他的基础设施。所以操作系统和基础设施的处理就交给x86架构,并部分交给各种协处理器与加速器处理就行。”
真正的AI技术处理工作与标准的计算或GPU处理过程非常不同,因此市场对专门芯片的需求十分迫切。x86构架的CPU能够处理AI,但是需要分12步处理,明明只需要3步就可以,有些时候使用GPU也显得很多余。
通常科学计算的结果很明确,2+3就是等于5,小数点后面的数字都要很精确,在这一点上x86和GPU都能做到。但是AI的特性是当遇到2.5+3.5的情况,几乎每次不用计算就能得出6。现在的人工智能技术中最重要的是在数据中发现规律,而不是精确的计算。
简言之,AI与机器学习的定义是从过往的经验总结并提高。比较出名的一个例子是谷歌子公司DeepMind开发的AlphaGo阿尔法围棋人工智能,开发者为了提高AlphaGo的棋艺模拟了许多场围棋比赛。再举一个例子,人们日常使用的Facebook人脸识别AI技术,也是经过多年训练之后才能准确在照片中识别人脸(Facebook在2012年收购了面部识别公司Face.com,在2016年收购了换脸应用 Masquerade和面部识别公司Faciometrics)
AI机器人学到了东西之后就不会忘记了,这正是机器学习的标志,AI大概念中的小概念。机器学习的核心是一种使用算法解析数据、从中学习然后根据数据作出决定或者预测的一种行为。机器学习也可以看作是一种识别规律的机制,比如在机器学习软件记住2+3=5后,整个AI系统就能用上这一信息,从这一点来看,一个识别技术是否用了AI就很容易分辨了。
再举个例子,用于自动驾驶车的AI技术,并不会使用决定性物理算法决定周遭其他物品的移动路径,只不过是利用过往经验来判断其他车是从这个方向来,还是从另一个方向来,因此AI系统是看到动作做出反应。
利用预测性的问题解决方式,AI技术只需要一次精确计算就能得出结论。虽然CPU与GPU也能做出这么精确的计算,但是过程太麻烦。一个单一的精准小体积芯片就能够解决,而且更好还更低。
别误会,功耗与适用范围对于芯片来讲很重要,尤其是对于AI来说,因为在这一领域并不是一种芯片就能全部试用的。AI的核心是机器学习,机器学习的核心是深度学习,这些技术利用不同的配置能完成不同的任务。英特尔旗下的Movidius部门为深度学习专门定制了一款芯片,因为深度学习的过程使用CPU受到了极大的限制。Movidiu的市场市场总监GaryBrown表示:“不是每一款AI芯片都是一样的,每一款芯片能够在不同时间处理不同的智能问题。我们的芯片拥有视觉智能,我们的算法利用摄像头信号源推断出眼前的情况,这就是我们开发的重点。”
Brown还补充,“我们甚至还需要区分应用在网络边缘和数据中心的芯片,在不同领域使用的芯片应该不同。网络边缘使用的芯片与数据中心使用的芯片无法媲美,例如英特尔公司的至强处理器属于数据中心芯片,足以应对数据中心AI技术的高性能需求,与智能手机中的AI对性能的需求是不一样的,智能手机的AI耗电不能超过1w。那么问题来了,主处理器跟功能单一的副处理器相比差在哪里?”
毕竟,如果想在智能手机或者AR头显中加入AI技术,就要考虑到电力。NVIDIA的Volta架构处理器处理AI很强悍,但是要消耗300w,是没办法应用在智能手机上的。
自动驾驶工业叉车技术的里程碑,机器人解决方案供应商Seegrid公司的科技进步主任Sean Stetson认为,目前的AI和ML技术都不适合通用处理器。他表示:“要想运行任何算法,不管是机器学习还是图像处理、图形处理,都有专门的工作流程。如果没有为不同的工作流程设置专门的计算核心,就会出现多余的数据和传输。在最没有效率地传输数据时,就会产生许多多余信息和瞬态功率,因为处理器的效率由每项指令使用的电力来测量。”
当然,新AI芯片的出现并不只是因为市场对专门芯片和能源效率有需求。IBM Power系统开发部门的副总裁之一Brad McCredie认为大家都想上这波AI芯片的车还有一个原因是因为奖励真的很丰厚。他说:“这是IT行业在数十年来第一次看到发展,而且还是呈指数增长的趋势。出现变化是因为新的资金将进入IT行业,用于AI的开发,就这样风投资金流入了IT行业。毫无疑问,大家看到的是一场淘金热。”
全新的生态环境
开发专门用于AI的芯片带来的不只是科技发展,随之而来的还有考虑到AI和ML处理相似性的全新量产方式。如果开发了一款AI协处理器,却用在过时的PC设备,或服务器中,就好像是将法拉利引擎浪费在大众的甲壳虫车中了。
英特尔AI产品项目组的副总裁兼首席技术官以及Nervana公司的联合创始人Amir Khosrowshahi表示:“人们说的AI和AI芯片,说的是围绕着许多非AI科技研发的AI解决方案,其中涉及了CPU、内存、SSD和互联,这些对一个可行的AI解决方案来说缺一不可。”
举个例子,IBM在2017年底推出Power 9处理器来应对处理重要任务的系统时,将NVIDIA的高速NVLink技术应用在了核心互联、第四代PCIe和IBM自己的名为OpenCAPI的接口(开放式一致性加速器处理接口)上。OpenCAPI是一款为内存、加速器、网络、存储器和其他芯片提供高宽带,低延迟的接口。
McCredie表示,在x86架构的生态环境有点落后了。他指出,第三代PCIe已经上市7年却迟迟未推出重大更新(直到2017下半年才推出下一代),IBM是第一批应用三代PCIe的公司,他们的x86服务器现在还在搭载三代PCIe,跟第四代相比带宽缩减了一半。
McCredie补充道:“随着计算能力的大幅增长,计算容量也应该大幅增加,我们需要更全能的处理器。处理器达到了存储带宽和I/O带宽,解决了限制系统性能的首要问题。”
他继续说道:“未来的加速器也会越来越强大,因为工作量加大就会需要更厉害的加速器。我们甚至还打算为数据库和ERP(企业资源规划)等常见的工作负荷加速。我认为现在芯片行业呈现出一个稳定的趋势,就是重点越来越趋向于加速,市面上也出现了更多的加速器。”
流动资产分析科技公司OTAS的CEO Tom Doris争辩到:“不过单靠硬件是无法完成机器学习的,机器学习的主要部分还是在于软件。大家争先恐后开发新款芯片时,却很少提到与芯片搭配的软件,那是因为这样的软件大部分已经面世了,正等待芯片追上它们的脚步。”
他继续说道:“如果参考更久远的历史,科技发展都由硬件科技推动的,算法的变化并不大。我离开这行业并没有多久,当我回来发现这一现象也觉得很吃惊。算法与软件从90年代晚期就没怎么变过,关键还是看计算能力。”
据悉,彭博社首席技术官办公室的数据科学家David Rosenberg,也认为现在的软件已经足够用。他表示:“有些领域的软件因为分布式计算和分布式神经计算的原理需要进一步开发,但是我们已经在软件开发上很有经验,所以不需要担心,目前重要的是硬件能否快速有效地执行这些软件。”
前斯坦福大学教授Ian Buck,开发了CUDA平台(使用平台的开发者可以编写使用NVIDIA自己的GPU来进行并行处理)的前身,他解释到,实际上,通过现在的用例可以看出,硬件与软件正在齐头并进地发展,目标是支持AI芯片和用例这股新浪潮。在我们NVIDIA,软件与硬件团队规模大致差不多。据悉,Buck现在是NVIDIA的AI部门主任。
Buck说道:“我们利用系统软件、库、AI框架和编译程式共同开发了新的构架,只为了利用日益更新的技术和神经网络。在AI行业唯一能成功的办法不只是开发优秀的芯片,还有将所有的软件紧密结合在一起,使用并优化不断推陈出新网络。”
对Buck来说,AI代表一种新式计算方法的原因之一是他认为AI用新的办法将硬件与软件结合在一起。他说:“我们不用考虑向后兼容性,我们只是在改造一种能够胜任工作的处理器,这种处理器还需要能配合软件的运行。”
竞争的终点
虽然今天有很多看似有潜力的AI芯片开发商,然而现阶段面临的问题就是之一就是他们有多少能流入市场销售,而不是仅提供给供应商,甚至项目被取消。也就是说,今天大多数AI芯片项目仍然存在较大的不确定性。
对于许多没有CPU制造经验的设计AI芯片制造商,例如谷歌、Facebook、微软,这些公司似乎都在开发定制的AI芯片用于自家项目上,很可能永远都不会推向市场。这些公司凭借着强大的资金实力,可以投入多大数十亿美元的研发资金,而且没有要求立刻或有明显的投资收益。
因此,用户可能会依赖谷歌的Tensor计算单元作为Google Cloud服务,且是特色之一,而不会直接销售这些芯片。不难猜测,Facebook和微软也很可能采用这种研发运营模式。
而更多的芯片将会流入市场,例如NVIDIA最近宣布推出三款AI芯片:专为智能机器人设计的Jetson Xavier片上系统、专为自动驾驶出租车以及深度学习设计的Pegasus、专为半自动驾驶汽车设计的Xavier。然而,所有的这些芯片都是基于NVIDIA自家的模拟的环境:Isaac Sim,开发人员可以通过它来训练机器人并使用Jetson Xavier进行测试。
与此同时,Intel也承诺其首款基于深度学习处理器(基于2016年收购的Nervana公司)将于2019年面世,代号为Spring Crest。此外,Intel还拥有一款Nervana芯片,代号是Lake Crest。Intel表示,Spring Crest的性能将达到Lake Crest的3-4倍。
那么问题来了,所有的AI芯片都能走向成功吗?
Movidius部门的Brown讲到:“我认为未来AI领域将会出现演变,例如如果你想在数据中心中加入AI芯片,那么你就需要一个数据中心芯片,而如果你想在一个VR头显,那么你会找到另外的芯片。因此,未来可能会产生更多的专用领域的芯片,甚至有可能集成到CPU内部,AI芯片也存在多样性。”
AI芯片的发展在某些方面确实和CPU早期的演进过程很相似,未来也会诞生一批有优势的产品,甚至行业领导者的优势的AI芯片将支持多种用途。想想30年前,80386是当时数一数二的桌面级处理器,如果需要在LOTUS 1-2-3(一种电子表格)进行大量数据运算,那么可能还需要一台80837的数字协处理器。之后则是80486,Intel又将数字学处理器集成到CPU中,慢慢的CPU加入了越来越多的扩展功能,例如内存控制器、GPU等等。
OTAS公司的Doris指出,许多没有流入市场的AI芯片虽然受到内部高级技术研发人员的高度喜爱,但变革往往受到行业标准的牵制。Intersect360公司的Snell表示,很多AI芯片领域的初创公司都在所见队伍规模,这也意味着未来的竞争将更加激烈。因此,这些公司中更寄希望于开发出一个功能强大的基础型芯片,以此来夺取夯实市场。
IBM公司的McCredie表示,我虽然同意AI芯片的研发是一个艰苦的过程,但赛道将越来越窄,意味着有一天AI芯片领域依旧会向传统芯片一样,广阔的X86架构、NVIDIA的GPU、ARM的生态世界。但就目前而言,这场AI芯片的竞赛已经脱离了起跑线,并且竞赛选手依然持续跑下去。
(END)
推荐阅读
—— 青亭网